Text copied to clipboard!
Tytuł
Text copied to clipboard!Programista Big Data
Opis
Text copied to clipboard!
Poszukujemy Programisty Big Data, który dołączy do naszego zespołu technologicznego i będzie odpowiedzialny za projektowanie, rozwój oraz optymalizację rozwiązań opartych na dużych zbiorach danych. Idealny kandydat powinien posiadać doświadczenie w pracy z narzędziami i technologiami Big Data, takimi jak Hadoop, Spark, Kafka, oraz znać języki programowania takie jak Java, Scala lub Python.
W tej roli będziesz odpowiedzialny za tworzenie skalowalnych i wydajnych rozwiązań do przetwarzania danych, które wspierają decyzje biznesowe i analizy predykcyjne. Będziesz współpracować z zespołami analitycznymi, inżynierami danych oraz architektami systemów, aby zapewnić spójność i jakość danych w całej organizacji.
Twoje zadania będą obejmować projektowanie i implementację potoków danych (data pipelines), integrację danych z różnych źródeł, optymalizację wydajności systemów przetwarzania danych oraz zapewnienie bezpieczeństwa i zgodności danych z obowiązującymi regulacjami.
Oferujemy pracę w dynamicznym środowisku, w którym będziesz mieć możliwość rozwoju zawodowego, udziału w innowacyjnych projektach oraz korzystania z najnowszych technologii. Jeśli jesteś osobą analityczną, zorientowaną na rozwiązania i chcesz mieć realny wpływ na rozwój produktów opartych na danych, ta rola jest dla Ciebie.
Obowiązki
Text copied to clipboard!- Projektowanie i rozwój rozwiązań Big Data
- Tworzenie i utrzymywanie potoków danych (data pipelines)
- Integracja danych z różnych źródeł
- Optymalizacja wydajności systemów przetwarzania danych
- Współpraca z zespołami analitycznymi i inżynierami danych
- Zapewnienie jakości i spójności danych
- Zarządzanie dużymi zbiorami danych w środowiskach rozproszonych
- Monitorowanie i rozwiązywanie problemów związanych z danymi
- Udział w projektowaniu architektury danych
- Zgodność z regulacjami dotyczącymi ochrony danych
Wymagania
Text copied to clipboard!- Doświadczenie w pracy z technologiami Big Data (Hadoop, Spark, Kafka)
- Znajomość języków programowania: Java, Scala lub Python
- Znajomość systemów baz danych NoSQL (np. Cassandra, HBase)
- Umiejętność pracy z narzędziami ETL
- Doświadczenie w pracy z systemami rozproszonymi
- Znajomość zagadnień związanych z przetwarzaniem strumieniowym
- Zdolność analitycznego myślenia i rozwiązywania problemów
- Umiejętność pracy zespołowej i komunikacji
- Znajomość języka angielskiego na poziomie technicznym
- Wykształcenie wyższe w dziedzinie informatyki lub pokrewnej
Potencjalne pytania na rozmowie
Text copied to clipboard!- Jakie masz doświadczenie z technologiami Big Data?
- Z jakimi narzędziami ETL pracowałeś wcześniej?
- Czy masz doświadczenie w pracy z systemami rozproszonymi?
- Jakie języki programowania znasz i w jakim stopniu?
- Czy pracowałeś z danymi strumieniowymi? Jakie technologie stosowałeś?
- Jakie były Twoje największe wyzwania w pracy z dużymi zbiorami danych?
- Czy masz doświadczenie w optymalizacji wydajności systemów danych?
- Jakie masz doświadczenie w pracy zespołowej w projektach IT?
- Czy znasz zasady ochrony danych osobowych (np. RODO)?
- Jakie projekty Big Data realizowałeś w przeszłości?